面向目标的意见单词提取(TOWE)是一项精细的情感分析任务,旨在从句子中提取给定意见目标的相应意见单词。最近,深度学习方法在这项任务上取得了显着进步。然而,由于昂贵的数据注释过程,TOWE任务仍然遭受培训数据的稀缺性。有限的标记数据增加了测试数据和培训数据之间分配变化的风险。在本文中,我们建议利用大量未标记的数据来通过增加模型对变化分布变化的暴露来降低风险。具体而言,我们提出了一种新型的多透明一致性正则化(MGCR)方法,以利用未标记的数据并设计两个专门用于TOWE的过滤器,以在不同的粒度上过滤嘈杂的数据。四个TOWE基准数据集的广泛实验结果表明,与当前的最新方法相比,MGCR的优越性。深入分析还证明了不同粒度过滤器的有效性。我们的代码可在https://github.com/towessl/towessl上找到。
translated by 谷歌翻译
重复是一种反应,可以在对话中重复上一位演讲者的话语中的单词。如语言研究所述,重复对于与他人建立信任至关重要。在这项工作中,我们专注于重复生成。据我们所知,这是解决重复产生的第一种神经方法。我们提出了加权标签平滑,一种平滑方法,用于明确学习在微调过程中重复哪些单词,以及一种重复评分方法,可以在解码过程中输出更合适的重复。我们进行了自动和人类评估,涉及将这些方法应用于预先训练的语言模型T5来产生重复。实验结果表明,我们的方法在两种评估中都超过了基线。
translated by 谷歌翻译
Off-policy evaluation (OPE) attempts to predict the performance of counterfactual policies using log data from a different policy. We extend its applicability by developing an OPE method for a class of both full support and deficient support logging policies in contextual-bandit settings. This class includes deterministic bandit (such as Upper Confidence Bound) as well as deterministic decision-making based on supervised and unsupervised learning. We prove that our method's prediction converges in probability to the true performance of a counterfactual policy as the sample size increases. We validate our method with experiments on partly and entirely deterministic logging policies. Finally, we apply it to evaluate coupon targeting policies by a major online platform and show how to improve the existing policy.
translated by 谷歌翻译
在这项工作中,我们介绍了基于补丁的以对象为中心的视频变压器(POVT),这是一种基于区域的新型视频生成体系结构,利用以对象为中心的信息来有效地对视频中的时间动态进行建模。我们在视频预测中通过自回旋变压器在压缩视频的离散潜在空间中进行了先前的工作,并通过边界框进行了更改,以增加对象以对象为中心的信息。由于以对象为中心表示的更好的可压缩性,我们可以通过允许模型仅访问对象信息以获取更长的视野时间信息来提高训练效率。当对以对象为中心的各种困难数据集进行评估时,我们的方法可与其他视频生成模型更好或相等的性能,同时在计算上更有效和可扩展。此外,我们表明我们的方法能够通过边界框操作执行以对象为中心的可控性,这可能有助于下游任务,例如视频编辑或视觉计划。示例可在https://sites.google.com/view/povt-public} {https://sites.google.com/view/povt-public获取
translated by 谷歌翻译
工业连接器插入任务需要亚毫米定位并掌握插头的姿势补偿。因此,对插头和插座之间的相对姿势的高度准确估计对于完成任务至关重要。世界模型是视觉运动控制的有前途的技术,因为它们获得了适当的状态表示,以共同优化特征提取和潜在动力学模型。最近的研究表明,Newtonianvae是一种世界模型的一种类型,可获得等同于从图像到物理坐标的映射的潜在空间。在牛顿维尔的潜在空间中可以实现比例控制。但是,在物理环境中应用牛顿台上的牛顿工业任务是一个开放的问题。此外,现有的框架不考虑在获得的潜在空间中的掌握姿势补偿。在这项工作中,我们提出了对触觉敏感的Newtonianvae,并将其应用于物理环境中带有姿势变化的USB连接器插入。我们采用了凝胶型触觉传感器,并估计了插头的掌握姿势补偿的插入位置。我们的方法以端到端的方式训练潜在空间,不需要其他工程和注释。在获得的潜在空间中可以使用简单的比例控制。此外,我们证明了原始的牛顿病在某些情况下失败了,并证明了域知识诱导可以提高模型的准确性。可以使用机器人规范和掌握姿势误差测量轻松获得此域知识。我们证明了我们提出的方法在物理环境中的USB连接器插入任务中实现了100 \%的成功率和0.3 mm的定位精度。它优于SOTA CNN的两阶段目标姿势回归,并使用坐标转换掌握了姿势补偿。
translated by 谷歌翻译
尽管最近在图像翻译方面进行了显着进展,但具有多种差异对象的复杂场景仍然是一个具有挑战性的问题。因为翻译的图像具有低保真度和微小对象,更少,并在对象识别中获得不满意的性能。如果图像的彻底对象感知(即,边界框,类别和掩码)作为先验知识,则在图像转换过程中将难以跟踪每个对象的样式转换。我们提出了基于Panoptic的对象样式对齐生成的对抗生成的对抗网络(POSA-GAN),用于图像到图像 - 图像到图像转换,以及一个紧凑的Panoptic semation数据集。 Panoptic分割模型用于提取Panoptic-Level感知(即,除去图像中的重叠的前景对象实例和背景语义区域)。这用于指导从目标域的样式空间采样的输入域图像和对象样式代码的对象内容代码之间的对齐。进一步转换样式对齐的对象表示以获得更高保真对象生成的精确边界布局。与不同的竞争方法系统的系统进行了系统地进行了系统地进行了系统地进行了系统地进行了比较,并对翻译图像的图像质量和物体识别性能进行了显着改善。
translated by 谷歌翻译
自动车辆(AVS)必须与异构地理区域的多种人类驱动因素互动。理想情况下,AVS的车队应该共享轨迹数据,以持续地从使用基于云的分布式学习的集体经验来重新列车和改进轨迹预测模型。与此同时,这些机器人应该理想地避免上传原始驱动程序交互数据,以保护专有政策(在与其他公司共享时的见解)或保护驾驶员隐私。联合学习(FL)是一种流行的机制,用于在不泄露私人本地数据的情况下从不同的用户学习来自不同用户的云服务器模型。然而,FL通常不是强大的 - 当用户数据来自高度异构的分布时,它会学习次优模型,这是人机交互的关键标志。在本文中,我们提出了一种小型变种的个性化FL,专门从事强大的机器人学习模型到不同的用户分布。我们的算法在实际用户研究中优于2倍的标准FL基准,我们进行了我们进行的人力操作车辆必须优雅地合并标准Carla和Carlo AV模拟器中的模拟AVS。
translated by 谷歌翻译
我们为RS-HDMR-GPR提供了一个Python实现(随机采样高维模型表示高斯进程回归)。该方法构建具有较低维度术语的多变量函数的表示,作为耦合顺序的扩展,或者仅使用仅给定维度的术语。特别是促进从稀疏数据恢复功能依赖性。代码还允许丢弃变量的缺失值,并且有用的HDMR术语的有用数量的显着修剪。该代码还可用于估计输入变量的不同组合的相对重要性,从而添加对一般机器学习方法的洞察元素。该回归工具的能力在涉及合成分析功能,水分子的潜在能量表面,材料(结晶镁,铝和硅)和金融市场数据的潜在能量表面进行了证明的能力。
translated by 谷歌翻译
在多代理路径查找(MAPF)问题中,一组在图表上移动的代理必须达到其自身各自的目的地,而无需间间冲突。在实用的MAPF应用中,如自动仓库导航,偶尔有数百个或更多代理商,MAPF必须在终身基础上迭代地解决。这种情景排除了离线计算密集型最佳方法的简单调整;因此,可扩展的子最优算法用于此类设置。理想的可扩展算法适用于可预测计算时间的迭代方案和输出合理的解决方案。对于上述目的,在本研究中,提出了一种具有回溯(PIBT)的优先级继承的新型算法以迭代地解决MAPF。 PIBT依赖于适应性优先级方案,专注于多个代理的相邻运动;因此它可以应用于若干域。我们证明,无论其数量如何,当环境是图形时,所有代理都保证在有限的时间内达到目的地,使得所有相邻节点属于一个简单的周期(例如,双绞线)。实验结果涵盖了各种场景,包括真正的机器人演示,揭示了所提出的方法的好处。即使用数百种代理商,PIBT也会立即产生可接受的解决方案,可以解决其他事实上MAPF方法的大型情况。此外,PIBT在运行时和解决方案质量的自动化仓库中的传送包中的迭代方案上占据了现有方法。
translated by 谷歌翻译